OpenAI prezentē jaunus o1 modeļus ar uzlabotām problēmu risināšanas spējām un brīdina par ļaunprātīgas izmantošanas riskiem

OpenAI ir sasniedzis lielu tehnoloģisko progresu ar o1 modeļiem, vienlaikus brīdinot par paaugstinātu ļaunprātīgas izmantošanas risku, īpaši attiecībā uz bioloģisko ieroču izstrādi.

14.09.2024. 13:12
Eulerpool News 2024. g. 14. sept. 13:12

OpenAI ceturtdien prezentēja savus jaunākos o1 modeļus, kas piedāvā ievērojamus sasniegumus loģiskās domāšanas, problēmu risināšanas un zinātnisko jautājumu atbildēšanas jomā. Modeļi tiek uzskatīti par būtisku soli mākslīgā vispārējā intelekta (AGI) izstrādes ceļā – mašīnām, kas spēj sasniegt cilvēku domāšanas spējas.

Šajā sistēmas kartē, kas apraksta KI darbības veidu, OpenAI tomēr atzīst, ka jaunie modeļi ir arī "būtiski palielinājuši" tehnoloģiju ļaunprātīgas izmantošanas risku, īpaši saistībā ar bioloģisko ieroču izgatavošanu. Pirmo reizi uzņēmums saviem modeļiem piešķīra "vidēja riska" novērtējumu ķīmisko, bioloģisko, radioloģisko un kodolieroču (CBRN) saistībā. Tas nozīmē, ka tehnoloģija būtiski uzlabo ekspertu spējas attīstīt bioloģiskos ieročus.

Progresīvās mākslīgā intelekta programmatūras, kas spēj veikt pakāpeniskas loģiskās argumentācijas, pēc ekspertu domām, ir paaugstināts ļaunprātīgas izmantošanas potenciāls. Viens no pasaules vadošajiem mākslīgā intelekta pētniekiem Ješua Benžio uzsvēra steidzamo nepieciešamību pēc likumdošanas regulējumiem, lai mazinātu šos riskus. Viņš norādīja uz likumprojektu Kalifornijā, kas prasītu uzņēmumiem veikt drošības pasākumus, lai novērstu mākslīgā intelekta izmantošanu bioloģisko ieroču izstrādē. "Jo vairāk mākslīgais intelekts progresē virzienā uz vispārējo mākslīgo intelektu (AGI), jo lielāki riski, ja nav atbilstošu aizsardzības pasākumu," brīdināja Benžio.

Tehnoloģiju uzņēmumi, piemēram, Google, Meta un Anthropic, strādā pie progresīvām KI sistēmām izstrādes. Šie KI aģenti varētu palīdzēt cilvēkiem veikt uzdevumus un piedāvāt potenciāli ienesīgas biznesa iespējas uzņēmumiem, kas saskaras ar milzīgajām KI izstrādes izmaksām.

Mira Murati, OpenAI tehnoloģiju direktore, Financial Times paskaidroja, ka uzņēmums ir īpaši piesardzīgs, ieviešot o1 modeļus, jo tiem ir plašas spējas. Modeļi tiks padarīti pieejami caur ChatGPT maksas abonentiem un API programmētājiem. Murati piebilda, ka modeļi ir pakļauti plašiem drošības testiem un ir uzrādījuši ievērojami labākus rezultātus drošības jomā nekā iepriekšējās versijas.

Veic labākos ieguldījumus savā dzīvē
fair value · 20 million securities worldwide · 50 year history · 10 year estimates · leading business news

Par 2 € nodrošiniet

Jaunumi